home *** CD-ROM | disk | FTP | other *** search
/ InfoMagic Standards 1994 January / InfoMagic Standards - January 1994.iso / inet / ietf / idpr / 93mar.min < prev    next >
Text File  |  1993-05-12  |  7KB  |  160 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4.  
  5. Reported by Martha Steenstrup/BBN
  6.  
  7. Minutes of the Inter-Domain Policy Routing Working Group (IDPR)
  8.  
  9. The IDPR Working Group met for two consecutive sessions during the March
  10. 1993 IETF meeting.  We discussed the status of IDPR as a standard as
  11. well as experimental work that we are currently pursuing.
  12.  
  13. Two new IDPR Internet-Drafts were issued prior to the IETF meeting:
  14.  
  15.  
  16.   1. An updated version of the IDPR MIB, written by Woody Woodburn of
  17.      Sparta.
  18.   2. A discussion of the DNS modifications to support IP address to
  19.      administrative domain mappings, written by Rob Austein of Epilogue.
  20.  
  21.  
  22. If you have not yet obtained a copy of these new Internet-Drafts, you
  23. are encouraged to do so.  Please send all comments on the drafts to
  24. idpr-wg@bbn.com.
  25.  
  26. Internet Pilot Demonstration
  27.  
  28. The Internet pilot demonstration of IDPR is proceeding.  We will
  29. demonstrate the functioning of IDPR in the presence of policies
  30. (``acceptable use policies'') supplied by the transit networks NSFnet,
  31. NSInet, and TWBnet.  No routers in any of these networks will actually
  32. run IDPR. Rather, special IDPR routers (``policy gateways'' in the IDPR
  33. terminology) will act on behalf of NSFnet, NSInet, and TWBnet to supply
  34. policy routing.  These policy gateways will only handle traffic
  35. designated as IDPR traffic.  IDPR traffic will be generated by a small
  36. set of hosts at BBN, SRI, UCL, and ISI; no other Internet hosts will
  37. generate IDPR traffic.
  38.  
  39. Policy gateways will be located at BBN, SRI, UCL, and ISI and will act
  40. on behalf of these sites to handle IDPR traffic.  Policy gateways will
  41. also be located at the FIXes and will act on behalf of NSFnet, NSInet,
  42. and TWBnet to handle IDPR traffic.  There will be two SPARCstations
  43. installed at the FIXes, one SPARCstation per FIX Ethernet.  Each
  44. SPARCstation will act as a set of three policy gateways, one policy
  45. gateway per participating transit network per FIX.
  46.  
  47. We will show that:
  48.  
  49.  
  50.    o IDPR selects routes that respect the access restrictions imposed by
  51.      the transit networks and the service requirements (for example, low
  52.      delay) of the sources.
  53.  
  54.    o One may reconfigure transit network policies to suit current needs,
  55.  
  56.                                    1
  57.  
  58.  
  59.  
  60.  
  61.  
  62.      and IDPR routes will reflect these changes.
  63.  
  64.    o IDPR is robust in the presence of connectivity failures and quickly
  65.      learns new routes.
  66.  
  67.    o If a source attempts to setup a route that violates transit network
  68.      access restrictions, the transit network refuses the route.
  69.  
  70.  
  71. The policy gateways handle IDPR traffic only and will not touch other
  72. traffic.  Hence, this pilot demonstration will not affect regular
  73. (non-IDPR) traffic traveling over the FIXes or over any of the transit
  74. networks attached to them.
  75.  
  76. Two years ago, we demonstrated this functionality in networks such as
  77. DARTnet; this will be the first demonstration of IDPR functionality in
  78. the general Internet.
  79.  
  80. Two of the more ``experimental'' topics we discussed included adding the
  81. super domain functionality, described in the IDPR architecture, to the
  82. IDPR protocols and integrating resource reservation with IDPR.
  83.  
  84. To handle hierarchies of domains, IDPR must have a way to represent
  85. hierarchical domain addresses and to define the distribution scope of
  86. routing information in the hierarchy.  Routing information from a given
  87. domain may be visible at multiple levels within the hierarchy if the
  88. distribution scope for that domain includes multiple levels.
  89.  
  90. We define the ``routing context'' as the level in the domain hierarchy
  91. at which the routing will occur.  For example, suppose domain A contains
  92. domain B which in turn contains a set of domains C1,...,Cn.
  93. Furthermore, suppose we want to route among the C domains.  Then the
  94. routing context is represented as A/B. Thus, when we refer to Ci after
  95. defining the routing context, it is clear that we mean Ci contained in B
  96. contained in A, rather than Ci contained in some other domain Y. Routing
  97. context must be distributed in routing information messages as well as
  98. in path setup messages, to identify the context of the information
  99. contained within the message.
  100.  
  101. When integrating resource reservation and IDPR, there must exist
  102. mechanisms to generate routes that are likely to have the requested
  103. resources, to reserve resources, and to control traffic such that
  104. reservations are honored.  IDPR relies on intra-domain mechanisms to
  105. that support resource reservation and traffic control across a domain,
  106. and hence there must exist an interface for communicating reservation
  107. information to the intra-domain resource reservation mechanism.
  108.  
  109. IDPR domains supporting resource reservations should distribute the mean
  110. and standard deviation of the bandwidth available for reservation
  111. between relevant virtual gateway pairs, in their routing information
  112. messages.  Route servers can select routes based on the mean values of
  113. available bandwidth or even on more pessimistic views such as available
  114. bandwidth equal to n standard deviations lower than the mean.
  115.  
  116.                                    2
  117.  
  118.  
  119.  
  120.  
  121.  
  122. Generating routes with such bandwidth metrics should increase the
  123. chances of producing routes that can in fact provide the requested
  124. bandwidth.
  125.  
  126. Using statistical measures of available bandwidth, a domain need not
  127. generate a routing information message for each resource reservation or
  128. release.  Thus, we can contain the amount of routing information
  129. messages.  However, when bandwidth available for reservation is almost
  130. exhausted, a domain should immediately generate a routing information
  131. indicating this state.  This will prevent generation of new paths
  132. through this domain.  Moreover, when the available bandwidth increases
  133. to a reasonable amount again, the domain should generate a routing
  134. information message to inform other domains that it has sufficient
  135. resources to accept more traffic.  We have simulated such algorithms,
  136. but have not yet implemented them in an actual network.
  137.  
  138. Attendees
  139.  
  140. Robert Austein           sra@epilogue.com
  141. David Bridgham           dab@epilogue.com
  142. Al Costanzo              al@akc.com
  143. Shane Dawalt             sdawalt@desire.wright.edu
  144. Chip Elliott             celliot@bbn.com
  145. Frank Hoffmann           hoffmann@dhdibm1.bitnet
  146. Frank Kastenholz         kasten@ftp.com
  147. Tony Li                  tli@cisco.com
  148. Charles Lynn             clynn@bbn.com
  149. Glenn Mackintosh         glenn@canet.ca
  150. Brad Passwaters          bjp@sura.net
  151. Manoel Rodrigues         manoel_rodrigues@att.com
  152. Shawn Routhier           sar@epilogue.com
  153. William Simpson          Bill.Simpson@um.cc.umich.edu
  154. Martha Steenstrup        msteenst@bbn.com
  155. Stuart Stubblebine       stubblebine@isi.edu
  156.  
  157.  
  158.  
  159.                                    3
  160.